为了更充分地利用支持特征和查询特征中的关键信息,提出一种基于特征融合和增强注意力的少样本目标检测方法FFA-FSOD(Feature Fusion and enhanced Attention Few-Shot Object Detection)。首先引入迭代注意力特征融合(iAFF)模块,以有效融合支持图像和查询图像的关键特征;其次在iAFF模块后添加特征增强操作,充分利用支持特征信息对查询图像中的目标特征进行增强。为避免上述两次处理可能导致的查询图像特征部分细节信息的丢失,对iAFF模块中的多尺度通道注意力模块(MS-CAM)进行改进,以捕获更多的上下文信息。在MS COCO数据集上的实验结果表明,在2-way 10-shot条件下,与小样本目标检测(FSOD)方法相比,加入iAFF模块、特征增强操作并改进MS-CAM后,FFA-FSOD的平均精度均值(mAP)提升了8.0%。实验结果验证了所提特征融合增强方法充分关注到了特征中的细节信息,从而实现了更好的少样本目标检测效果。
针对在立体匹配中弱纹理及纯色区域匹配不准确和图像分割算法耗时较多的问题,提出一种融合图像分割的立体匹配算法。首先,将初始图像进行高斯滤波和Sobel平滑的处理,获取图像的边缘特征图;然后,将原图的红、绿、蓝三个通道值采用最大类间方差法进行二分类,再融合得到分割模板图;最后,将所得到的灰度图、边缘特征图和分割模板图用于视差计算和视差优化的过程,计算得到视差图。相比绝对差值和(SAD)算法,所提算法在精度上平均提升了14.23个百分点,时间开销上平均每万个像素点只多消耗了7.16 ms。实验结果表明,该算法在纯色及弱纹理区域和视差不连续区域取得了更加平滑的匹配结果,在图像分割上能够自动计算阈值且能够较快地对图像进行分割。
针对图像水印的鲁棒性,运用协同序参量理论,提出一种基于协同序参量的定量评价方法。对载体图像完成各类鲁棒性实验,计算比较了各模式的协同序参量初始值,使用序参量演化曲线进行验证,得到相应的鲁棒性定量评价。评价结果与相关系数法一致,但更加方便和实用。